Entropie conditionnelle de \(X\) et \(Y\)
$$H(X|Y)=-\sum_{x\in\mathcal X}\sum_{y\in\mathcal Y}p_{XY}(x,y)\log_2(p_{X|Y}(x|y))$$
correspond à l'incertitude restante sur \(X\) lorsqu'on connaît \(Y\)
si \(X\) et \(Y\) sont respectivement l'entrée et la sortie du canal, alors \(H(X|Y)\) correspond à l'incertitude restant sur le symbole émis une fois qu'on l'a reçu
\(H(X|Y)\geqslant\) \(0\), avec égalité si et seulement si les deux sources contiennent exactement la même information
\(H(X|Y)\leqslant\) \(H(X)\), avec égalité si et seulement si \(X\) et \(Y\) sont indépendantes
⚠ à retenir : "le conditionnement réduit l'entropie" ⚠
autre formule : $$H(X|Y)=\sum_{y\in\mathcal Y}H(X|Y=y)p_Y(y)\quad\text{ avec }\quad H(X|Y=y)=-\sum_{x\in\mathcal X}P_{X|Y}(x|y)\log_2(P_{X|Y}(x|y))$$
ce concept peut être étendu à \(n\) variables, avec la formule : $$H(X_{1:n}|Y)=\sum^n_{i=1}H(X_i|X_{1:i-1},Y)$$
formule avec trois variables : \(H(X,Y|Z)=\) \(H(X|Y,Z)+H(Y|Z)=H(Y|X,Z)+H(X,Z)\)
Questions de cours
START
Ω Basique (+inversé optionnel)
Recto: Comment représenter l'entropie conditionnelle \(H(X|Y)\) sur un diagramme de Venn ?
Verso:
Bonus:
Carte inversée ?:
END